Národní úložiště šedé literatury Nalezeno 8 záznamů.  Hledání trvalo 0.00 vteřin. 
Extrakce informací z Wikipedie
Krištof, Tomáš ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Tato bakalářská práce se zabývá problematikou extrakce informací z nestrukturovaného textu. V první části jsou čtenáři přiblíženy jednotlivé metody, které se v informačních tech- nologiích používají k extrakci informací. Následně je popsán návrh a realizace systému, který získává požadovaná data ze zadaných článků internetového serveru Wikipedie. V po- slední části práce je provedena analýza dosažených výsledků.
Extrakce informací z Wikipedie
Musil, Martin ; Otrusina, Lubomír (oponent) ; Schmidt, Marek (vedoucí práce)
Tato bakalárská práce se zabývá tématem automatické extrakce informací z textu. Cílem je vytvorení aplikace, která za užití extrakcních vzoru získává znalosti z clánku informacního internetového serveru Wikipedie. V úvodu jsou vysvetleny základní pojmy této problematiky, hlavní cást práce se venuje experimentum a predevším samotné implementaci rozdelené do dvou cástí - zpracování textu a následného získávání informací. Vyhodnocením projektu je pak samotná analýza výsledku experimentu a efektivita vytvorených pravidel.
Optimalizace výrobního procesu s využitím umělé inteligence
Košťál, Martin
Bakalářská práce se zabývá tvorbou řešení, které usnadňují plánování výroby ve firmě. První řešení bylo navrženo pomocí pravidlového systému v programovacím jazyku Python. Druhé řešení sestávalo z vytvoření postupu pomocí neuronové sítě, která byla navržena ve frameworku TensorFlow. Výsledné řešení je vytvořeno z pravidlového systému a neuronové sítě. Hotové řešení je ve firmě naimplementováno s použitím webové aplikace napsané ve frameworku Flask.
Normalizace pojmenovaných entit v českých textech
Kubát, Petr ; Vidová Hladká, Barbora (vedoucí práce) ; Popel, Martin (oponent)
Pojmenované entity jsou slovní spojení, která v textu označují objekty reálného světa. Normalizací entit nazveme jejich převod do základního tvaru. Práce se zabývá vytvořením pravidlové procedury určené k normalizaci pojmenovaných entit v českých textech. Proces návrhu jednotlivých pravidel této procedury je důkladně zmapován. Důraz je kladen na to, aby každé pravidlo bylo motivováno příklady reálných entit. Za účelem dosažení co největší úspěšnosti jsou také analyzovány některé aspekty syntaxe českého jazyka. Na základě teoretického popisu procedury je dále implementován normalizační program a jeho úspěšnost je vyhodnocena srovnáním s ručně normalizovanými entitami. Ve spojení s již existujícími nástroji pro automatické rozpoznávání pojmenovaných entit v textu je možné tento normalizátor využít v jiných procesech strojového zpracování textu, například překladu do jiného jazyka, vyhledávání a kategorizaci apod. Powered by TCPDF (www.tcpdf.org)
Extrakce informací z Wikipedie
Krištof, Tomáš ; Otrusina, Lubomír (oponent) ; Smrž, Pavel (vedoucí práce)
Tato bakalářská práce se zabývá problematikou extrakce informací z nestrukturovaného textu. V první části jsou čtenáři přiblíženy jednotlivé metody, které se v informačních tech- nologiích používají k extrakci informací. Následně je popsán návrh a realizace systému, který získává požadovaná data ze zadaných článků internetového serveru Wikipedie. V po- slední části práce je provedena analýza dosažených výsledků.
Extrakce informací z Wikipedie
Musil, Martin ; Otrusina, Lubomír (oponent) ; Schmidt, Marek (vedoucí práce)
Tato bakalárská práce se zabývá tématem automatické extrakce informací z textu. Cílem je vytvorení aplikace, která za užití extrakcních vzoru získává znalosti z clánku informacního internetového serveru Wikipedie. V úvodu jsou vysvetleny základní pojmy této problematiky, hlavní cást práce se venuje experimentum a predevším samotné implementaci rozdelené do dvou cástí - zpracování textu a následného získávání informací. Vyhodnocením projektu je pak samotná analýza výsledku experimentu a efektivita vytvorených pravidel.
Odhadování struktury dat pomocí pravidlových systémů
Řimnáč, Martin
Metoda odhadování struktury dat spojuje vizi sémantického webu a dnešní webové datové zdroje, které převážně neobsahují žádnou doprovodnou sémantiku prezentovaných informací. Aby bylo možné tyto zdroje použít pokročilými nástroji sémantického webu, je potřeba sémantiku prezentovaných dat alespoň odhadnout. Příspěvek popisuje takovou metodu, ukazuje její použití pro úlohy induktivního logického programování a jmenuje výhody použití pravidlových systémů pro její implementaci.
Návrh řešení Business Rule Engine
Zaplatílek, Jakub ; Stanovská, Iva (vedoucí práce) ; Komárek, Jiří (oponent)
Diplomová práce se věnuje problematice přístupu orientovaného na byznys pravidla a s ním spojené technologické aspekty. Cílem je čtenářům přiblížit tento relativně nový pohled na problematiku. Práce obsahuje základní definice a doporučení pro tento koncept a technologii. Součástí práce je souhrn teoretického základu včetně definice důležitých pojmů. Jsou zde zdůrazněny hlavní přínosy plynoucí z využití tohoto přístupu a souvisejících technologií převážně z pohledu zástupců byznysu. Práce také zkoumá vztah mezi byznys pravidly, procesy a workflow. Pro analýzu a návrh informačních systémů jsou v současnosti typické dva, dnes již klasické, přístupy - strukturovaný a objektový. V souvislosti s analýzou a návrhem informačních systémů (a nejen s nimi) se hovoří i o přístupu orientovaném na pravidla. Praktická část práce představuje návrh implementace aplikace využívající Rule Engine pomocí funkční specifikace modulu pro práci s byznys pravidly. V technologické části jsou vyspecifikovány základní přístupy implementace Rule Enginu v IS/ICT architektuře organizace. Je zde představena metodika společnosti ILOG pro tvorbu pravidel a systému, který s nimi pracuje. Součástí práce je i představení nástroje společnosti ILOG pro návrh, vývoj, implementaci a testování systému orientovaného na byznys pravidla. Tímto nástrojem je JRules.

Chcete být upozorněni, pokud se objeví nové záznamy odpovídající tomuto dotazu?
Přihlásit se k odběru RSS.